《数据治理实战指南》【第三部分 实施篇】第13章 数据价值应用

2026-03-10 15:49 浏览量:30


1.1. 数据应用概述
数据应用是数据治理的价值体现,也是治理成果走向业务场景的“最后一公里”。如果没有数据应用,治理工作就容易停留在制度、规范和平台层面,难以被管理者和业务人员真正感知。
数据应用的核心目标不是展示数据本身,而是让经过治理的数据,成为组织运行的重要生产要素,直接服务于业务判断、流程执行和经营管理,使组织在决策效率、风险控制和资源配置上获得实质性提升。
本章围绕数据资产在组织中的典型应用形态展开,包括数据资产目录、数据共享服务、数据指标与标签、可视化看板、高质量数据集以及 AI 用数智能体等。这些应用并非彼此孤立,而是建立在统一的数据模型、元数据、数据标准、数据质量等治理基础之上,分别从“找得到、看得清、用得快”等不同维度,解决业务用数过程中的关键问题,支撑起企业日常运营和智能决策。




图 1 数据应用概览


1.2. 数据资产目录
1.2.1. 数据资产目录的定位——让数据看得懂
(1) 从“数据迷雾”到资产可见
无论是关注投资回报的管理层、急需数据支撑业务的各部门,还是负责实施的数据治理团队,都想要获得一个核心问题的答案:在数据治理上投入了大量人力与时间成本,究竟产出了哪些可用的成果?这些成果为谁所用?
经过数据治理工作,组织的数据仓库中包含了大量数据,既有未加工的原始表,也有经过治理的主题表、主数据表以及面向应用的宽表。治理成果不止于此,往往还包含API、数据指标、数据标准等。如果缺乏统一视角来直观区分哪些表是质量可靠、可供业务直接使用的“成品”,哪些仍是待加工或中间状态的“半成品”或“原材料”,这将导致大量治理成果“藏”在技术环境中,难以被有效发现和利用。
数据资产目录正是为解决这一核心痛点而建立。它对数据资产进行统一登记和分类,使原本分散的治理成果能够被清晰展示和管理,从而为资产运营、价值衡量与持续优化提供基础。
(2) 数据资产目录的构成
数据资产目录用规范的格式,登记组织内所有可识别的数据资产,包括数据库表、API接口、文件、数据指标、数据标签、数据标准、高质量数据集、可视化看板、AI智能体等。它通过元数据,为每个资产赋予唯一标识与基本描述,不仅包括数据的物理存储位置和结构信息,更融合了数据的业务含义、管理责任、质量状况与血缘关系等。



图 2 数据资产目录的构成


1.2.2. 数据资产目录的典型使用场景
根据用户角色不同,数据资产目录的展示视角、使用方式不同。
(1) 数据资产管理者
数据资产管理者(如数据治理人员、业务部门数据所有者)完成元数据、主数据、数据质量等数据管理工作后,通常都会面临一个难题:无法全面、实时掌握数据资产的整体状况,如资产清单是否完整?数据质量是否持续达标?他们常常只能被动应对问题,难以主动治理管控。
数据资产目录为管理者提供了统一、可视的资产管理视图,使其能够系统掌握所管理数据资产的完整性、质量状况和使用情况,将原本分散、静态的治理要求,落实到具体数据资产的持续监控与管理之中。




图 3 数据资产管理者场景示例


- 资产筛选与发布:依据数据质量、标准以及业务就绪状态等,将可信数据资产(如完成治理的主题数据、核心主数据、应用层宽表等)发布至目录。
- 资产分类与授权管理:为已发布的数据资产维护业务分类、安全等级及使用权限策略,确保用户按角色合规访问,发现并申请相匹配的数据资产。
- 资产运营与优化:通过目录监控已发布资产的使用热度、质量波动、用户反馈及价值贡献等情况,实现数据资产的持续优化与闭环管理。
(2) 数据资产使用者
对于数据资产使用者来说,数据应用的首要困难是无法快速找到所需数据,或是在找到多个类似数据资产后无法判断用哪一个。即便找到所需数据,也因为缺乏对业务口径、更新及时性和质量水平的了解,而不敢轻易使用,担心其导致错误的结果,影响业务流程或决策。同时,申请数据的流程不清晰、不透明且漫长,无疑也抬高了数据使用的门槛。
数据资产目录为使用者提供了一站式的数据搜索、评估与申请入口,使其能够快速理解数据的业务含义、适用范围和使用条件,在明确数据口径和质量边界的前提下,评估并申请合适的数据资源,降低用数过程中的试错成本和沟通成本。

图 4 数据资产使用者场景示例


- 发现可信数据资产:通过目录,快速发现已发布且信息明确的可信数据资产,避免在原始、未治理的数据中盲目探索。
- 评估与理解资产:全面了解数据的业务定义、计算口径、数据来源、血缘关系以及质量情况等,从而准确判断适用性并建立使用信心。
- 自助申请与高效获取:通过目录中的标准化申请流程,在线申请并跟踪授权数据,大幅缩短资产获取路径。
(3) 数据资产开发者
数据资源开发者在进行ETL流程、API、数据指标等开发工作时,不清楚已有资产分布与复用情况,可能开发同类数据资产。同时,业务口径不清晰,难以确认与现有标准的一致性,加剧“数据方言”的产生,增加开发成本与协同内耗。
数据资产目录为开发者提供了清晰的加工脉络和数据标准库,使其能够在明确数据来源、口径约束和复用边界的基础上开展数据加工与服务开发,避免重复建设,提升开发效率和数据一致性。




图 5 数据资产开发者场景示例


- 探查数据源:在开发新的数据指标或报表前,通过目录搜索并评估候选数据源的技术结构、数据样本及质量情况等,确保选取可靠、适宜的原材料。
- 理解加工逻辑:通过血缘分析,追溯上游数据的加工过程和逻辑,避免重复开发或逻辑冲突,并对照数据标准确保新增资产符合标准要求。
- 管理资产交付:在完成数据开发后,主动在目录中注册新资产,并在变更前分析下游影响,实现安全、可控的变更管理。
 

1.3. 数据共享服务
1.3.1. 数据共享服务的定位——让数据流得动
(1) 从“蜘蛛网”式交互到有序共享
在企业数字化运行过程中,为了保障业务流程的连续性与协同性,各类业务系统之间不可避免地需要进行大量数据交互。例如,ERP 需要向 CRM 提供客户与订单信息,CRM 又需要将销售结果反馈至财务或供应链系统。早期,这类需求通常通过系统间点对点接口的方式快速实现。
随着业务系统数量和交互场景的不断增加,这种点对点集成模式逐渐演变为结构复杂、难以梳理的“蜘蛛网”式数据交互网络:同类数据在多个接口中被重复开发与传输,接口口径不一致;一旦某个系统发生结构或逻辑调整,往往需要联动修改多个接口,维护成本高、风险大。同时,分散在各系统中的数据接口缺乏统一的安全与权限控制机制,数据流向难以追踪,给数据安全与合规管理带来隐患。
在这种情况下,单靠技术集成手段已难以支撑规模化的数据共享。组织需要统一管理数据交互,避免接口无序增长和重复开发。具体做法是,以企业级数据平台为载体,将分散的接口收拢为统一的数据服务,将以往依赖人工沟通和临时接口开发的数据获取方式,转变为“一次开发、多次复用”的有序共享模式。
(2) 数据共享服务的核心价值
数据共享服务是实现数据资产在组织内外部安全、合规、高效流通的核心能力。其核心价值在于:
- 降低集成复杂度与成本:通过提供标准化的数据服务接口,消除系统间重复、临时的接口开发,降低长期运维难度与总体拥有成本。
- 提升数据供给敏捷性与可靠性:业务部门能够通过数据资产目录快速发现并申请所需数据服务,缩短数据获取周期;集中式的监控与治理也保障了数据服务的稳定性。
- 强化数据安全与合规管控:实现数据出口的统一管理与访问行为的全局可审计,确保数据在跨系统流动过程中的安全、合规、可追溯。
 

1.3.2. 如何提供数据共享服务
(1) 数据治理为共享服务夯实基础
没有治理的共享是灾难性的,那只会让“脏数据”流向全企业。高质量的共享,是建立在前期数据治理成果之上的“服务化转化”。
具体来看,数据治理工作从多个层面为数据共享服务提供了直接支撑。
数据集成与数据仓库建设,将分散在各业务系统中的原始数据进行汇聚与加工,沉淀出主题清晰、结构稳定、可被复用的共享“原料”,如主题表、主数据和汇总数据集;元数据管理则为共享数据补充了清晰的业务含义、血缘关系与责任归属;数据标准与数据质量管理,确保这些原料在业务口径、数据格式和质量水平上的一致性与可靠性,使其具备被多系统、多场景安全复用的条件;数据安全分类分级,明确了不同数据资产可共享、可使用的范围与方式。这些治理成果共同构成了数据共享服务能够稳定、可控运行的基础。
(2) 将治理成果转化为共享服务
在数据治理的基础上,数据共享服务需要完成进一步的应用层工作。




图 6 提供共享服务步骤


首先,应根据业务协同与数据使用场景,明确哪些数据资产具备共享价值与共享条件,如稳定的主题表、核心主数据或指标数据等。
其次,考虑数据应用场景,确定实时或是定时共享。将数据资产封装为标准化的数据服务形态,包括库表级的数据同步服务、面向系统调用的 API 服务,以及满足特定场景的数据文件服务等,使技术资产转化为业务可理解、可调用的数据产品。
同时,还需要在数据共享服务供给过程中,嵌入统一的治理与管控机制,通过标准化流程实现数据服务的有序申请、合规交付与可追溯使用,并在数据资产目录中统一登记与管理。
通过这一过程,治理成果被封装为可持续提供的数据服务,稳定支撑跨系统、跨部门的业务协同。


1.4. 数据指标与标签
1.4.1. 数据指标与标签的定位——让数据说得清
(1) 从“数据方言”到统一业务表达
在实际经营管理中,业务指标和对象标签长期被用于支撑管理决策、业务评估和运营判断。但在日常运营与决策会议中,时常出现这些难题:销售部门与财务部门核算的“收入”为何对不上?市场部定义的“活跃用户”与产品部理解的“月活”是不是一回事?当业务人员为了开展精准营销,试图进行客户细分时,发现难以从纷繁的业务系统中,快速、一致地提取出描述客户特征的“标签”,如“高价值客户”或“潜在流失客户”。
这些现象背后,暴露出两个核心的数据应用问题:一是缺乏一套权威、统一的数据指标体系来量化业务表现,导致各部门在关键业务度量上“各说各话”,计算逻辑不透明、含义不一致,数据无法对齐,决策缺乏共识基础;二是缺乏体系化的数据标签来描述核心业务实体(如客户、产品),同一对象出现“多套标签”,导致无法基于统一、准确的画像进行精细化运营与分析。因此,难以支撑跨部门协同和规模化应用,也严重削弱了数据报表的可信度与决策的权威性。
(2) 数据指标和标签的核心价值
数据指标与数据标签正是应对以上挑战的关键业务语言与运营工具。
数据指标是对业务运行状态或经营结果的定量化衡量,它通过标准化的统计逻辑为绩效评估、趋势研判提供精确的刻度。数据标签则是对业务主体特征的定性描述,通过对客户、产品、设备等实体进行特征提取与分类,构建起清晰的业务画像。
通过构建统一的指标与标签体系,组织能够实现内部业务语言的高度共识,确保组织内部基于同一套客观事实进行沟通,从而大幅提升决策效率与业务执行的精准度。
 

1.4.2. 如何构建数据指标与标签
(1) 数据治理为数据指标与标签夯实基础
数据指标与数据标签的落地应用,并非简单的技术开发,而是对数据治理成果的集中检验与综合运用。
除了数据仓库中提供的数据基础,数据标准为指标和标签的命名规范、业务定义及计算口径提供了权威依据;主数据治理成果则保障了业务主体身份的唯一性与准确性,这是实现跨系统抽取特征并构建精准标签应用的基础前提;同时,数据质量管理,确保参与计算的数据准确、完整、规范、及时,增强指标和标签数据的可信度,避免了因基础数据脏乱导致的应用偏差。
(2) 将治理成果转化为数据指标和标签体系
在充分利用这些治理成果的基础上,还需要进一步开展面向业务价值的设计与开发工作。
对于数据指标,其核心是业务需求的“量化翻译”:与业务部门协同,明确指标的业务意图与使用场景,确认其统计口径、计算逻辑、负责部门与更新频率。同时,需要开发对应的数据加工逻辑,确保指标能够基于可信数据被稳定、准确地计算产出。
对于数据标签,其核心是实体特征的“标准化刻画”:需要依据业务运营目标(如客户分群、风险识别),设计标签的分类体系,并开发具体的生成规则。这些规则可能基于明确的业务逻辑,也可能依赖于数据分析与模型算法。
通过将数据指标与数据标签嵌入到BI报表、营销系统或风险控制等业务流程中,支撑业务部门开展实时的经营监控、精细化客户运营以及自动化的决策预警。经过定义与开发的数据指标,都应该作为数据资产,发布到数据资产目录中,供分析工具、应用系统和业务人员使用。



图 7 构建数据指标和标签步骤


通过“治理奠基、业务定义、技术开发、资产化管理”的完整过程,数据指标与数据标签能够被复用,成为组织统一业务表达的重要基础。
 

1.5. 可视化看板
1.5.1. 可视化看板的定位——让数据被业务化解读
(1) 从报表堆砌到整体业务视图
在企业日常经营与管理过程中,各类经营报表和分析图表一直是管理者获取信息、判断态势的重要工具。但当需要了解业务状况时,收到的是从不同系统导出的、格式各异的多个Excel文件或冗长的数据库查询结果。需要花费大量时间手工合并、核对与解读这些原始数据,才能勉强拼凑出一幅业务图景。
更棘手的是,可视化往往以“报表制作”为中心展开:不同部门基于各自理解开发看板,数据规范不一致、展示维度随意变化,同一主题下存在多套看板版本;大量报表依赖人工维护,更新不及时,使用频率逐渐降低,最终沦为“展示用报表”,难以真正支撑管理决策。
(2) 可视化看板的核心价值
可视化看板的价值,并不在于图形本身,而在于形成一种聚焦主题、实时更新的数据产品。它将多源数据整合到同一视角,转化为管理者与业务人员能够快速感知、理解并据此行动的视觉语言。这能极大压缩从数据到决策的路径,提升组织的协同与响应效率。
数据治理的大量工作集中于元数据的管理、数据标准的制定、数据质量的提升等,从管理层和业务部门的视角来看,其过程与阶段性成果往往具有较强的技术隐蔽性,带来的实际成果与业务增量往往难以被感知,而可视化看板可能是数据治理成果最直观的呈现方式。它让数据治理的成果变得直观可见,使管理层能够清晰看到数据带来的经营变化。
1.5.2. 如何构建可视化看板
(1) 数据治理为可视化看板夯实基础
高质量的可视化看板,建立在扎实的数据治理基础之上。为看板提供稳定、完整数据来源的,通常是数据仓库中的主数据和主题数据;而统一的数据指标体系,确保了看板中各类指标的统计口径一致、含义明确;数据标签成果,使看板能够按客户、产品或组织维度进行灵活切分与分析;数据质量管理,则保障了看板展示结果的准确性和时效性,避免因数据问题误导管理误判。
(2) 将治理成果转化为可视化看板
可视化看板的落地还需要面向管理与业务场景进行系统设计。围绕不同管理层级和业务角色,明确看板的使用目标和关注重点,合理组织指标结构与分析维度,避免简单堆砌图表。同时,根据需求情况,通过数据模型设计将多源数据加工为面向分析的宽表结构,降低看板运算与使用难度。




图 8 构建可视化看板步骤


通过将可视化看板与治理体系进行有机衔接,看板不再是一次性制作的报表成果,而成为可持续运行的管理工具。它通过统一的数据口径和稳定的数据来源,将分散的数据结果整合为可直接使用的业务视图,使管理者和业务人员能够持续、及时地掌握经营状态,为日常监控和决策提供可靠依据。


1.6. 高质量数据集
1.6.1. 高质量数据集的定位——让数据被AI读懂
(1) 从分析型数据到智能应用专用数据
在组织尝试将AI技术应用于具体业务场景,比如构建销量预测模型、实现工业视觉质检时,常常发现,算法团队花费大量精力调试复杂的模型架构与参数,但模型效果始终难以达到业务预期,表现不稳定或在真实场景中失效。究其根源,发现模型效果往往并不取决于算法复杂度,而高度依赖于训练数据的质量。
然而在很多组织中,训练数据难以直接支撑模型开发:一方面,这些数据可能来自未经治理的原始业务表,数据样本质量不高、标注缺失或业务口径不一致;另一方面,虽然经过了治理,但数据通常以业务系统或分析视角组织,并不符合模型训练对样本结构、特征维度与标签定义的特定要求。由于缺乏专为AI训练准备的高质量数据集,使得模型训练过程高度依赖人工清洗与反复试错,开发成本高、效果不稳定。也就是说,高质量数据集的缺失,正在成为制约AI从技术演示走向规模化业务应用的核心瓶颈。
(2) 什么是高质量数据集
依据国家数据局指导发布的《高质量数据集建设指引》,高质量数据集是指经过采集、加工等数据处理,可直接用于开发和训练人工智能模型,能有效提升模型表现的数据的集合。高质量数据集主要服务于人工智能的实际应用场景,通常包括以下四个核心组成要素:特征、标签、元数据和样本。特征是模型训练的输入变量,用于描述每个样本的具体属性;标签是需要模型预测的目标输出;元数据记录了数据生成与处理过程的相关信息,如采集时间、地点、来源等;样本则是构成数据集的基本单元,由特征向量及其对应的标签共同组成。
在这一概念下,高质量数据集并非只是服务于业务分析、质量较好、可以复用的数据集合,而是围绕具体的智能应用场景,以提升模型训练效率和效果稳定性为目标,构建出的场景适配、样本结构稳定、标注准确、特征有效、可持续更新的标准化数据。
(3) 高质量数据集的核心价值
在数据驱动的AI时代,真正决定智能应用效果的,也许不是模型多复杂,而是数据集质量够不够高。
- 通过系统化准备和沉淀模型训练所需的数据,企业能够降低算法研发对个人经验和临时加工的依赖,减少重复取数与样本构造带来的隐性成本,加快智能能力从研发走向业务落地的节奏。
- 依托稳定的样本、特征与标注体系,高质量数据集为不同模型和智能应用提供一致的评估基础,使模型效果更可预测、更可管理,从而降低智能应用运行过程中的不确定性与经营风险。
- 高质量数据集能够缩短智能应用价值转化周期,使预测、识别和决策能力更快嵌入业务流程,对提升运营效率、资源配置效率和整体经营绩效形成持续支撑。
 

1.6.2. 如何建设高质量数据集
高质量数据集的建设,标志着数据治理开始直接服务于智能模型的训练和应用。




图 9 建设高质量数据集步骤


(1) 数据需求:明确目标,有的放矢
根据AI应用场景(如销量预测、智能客服),明确模型要解决的具体业务问题、预测或识别的对象以及效果评估方式,将模糊的业务需求转化为对数据范围、内容、质量的具体且可衡量的要求。在这一阶段,团队可以依托已经建立的数据资产目录,快速探查组织内相关的数据资产(如客户主题表、产品主数据、指标数据等),了解其业务定义与质量状况,从而评估现状与目标的差距,使需求定义更加务实、精准。
(2) 数据规划:蓝图设计,标准先行
在数据规划阶段,围绕已经明确的数据需求,设计数据的整体架构,识别所需数据来源,规划样本范围、时间窗口、特征类型和标注方式,制定涵盖采集、处理、标注、验证的详细计划。此时,组织已有的数据架构、数据模型和数据标准,为样本组织方式和特征布局提供了成熟的结构参考,使数据集在规划阶段即具备可扩展、可复用的基础。
(3) 数据采集:汇聚原料,提质增效
在数据采集阶段,选择组织数据仓库中结构稳定、标准化的数据作为样本来源,已整合、清洗过或纳入质量管理范围的主题数据、主数据或宽表优先,避免直接使用分散、未经治理的原始业务数据,大幅减少从原始、脏乱数据起步的工作量。对于数据仓库中尚未覆盖、但业务分析确有需要的数据,应通过数据集成的方法采集,并同步纳入标准、质量和元数据管理,避免形成新的“治理盲区”。
(4) 数据预处理:加工提纯,创造价值
预处理是将数据转化为模型可用特征的关键步骤,包括清洗、转换、特征构建与选择等。在处理过程中,数据标准为数据清洗、转换提供明确依据,数据质量管理则对数据持续校验和监控,它们共同为数据集在长期使用中的稳定性和可信度提供保障。
在此基础上开展特征构建与选择工作,围绕模型目标,借助丰富的元数据,从治理后的数据中提取对业务问题有帮助的特征。例如,在销量预测场景中,可以组合历史销量、促销信息,构建“促销期间的平均销量增幅”这样的新特征。
(5) 数据标注:定义“答案”,注入智慧
数据标注是针对监督学习任务,为样本赋予正确的标签。标注规则的制定与审核,需要深度融入业务知识,可以由数据所有者、业务专家等参与定义与确认,保证标签符合业务实质,以及对数据标注过程进行监督和质量管理。
(6) 模型验证与持续运营:闭环验证,持续优化
最终,基于构建完成的数据集,进行人工智能模型开发和训练,并对模型训练效果进行评估。通过记录样本构成、特征加工逻辑、标注规则及其版本变化的元数据,能够清晰追溯每次模型训练的流程和版本差异。当模型效果出现波动或不及预期时,可以借助这些元数据快速定位原因,使模型效果评估具备可解释性。同时,结合数据质量分析结果,为后续数据集迭代和模型优化提供依据。
基于数据治理成果构建的高质量数据集,能够直接支撑模型开发、训练与评估。数据治理成果首次以“模型可用”的形式呈现,为智能应用的持续运行和优化提供稳定的数据基础。
另外,当下如日中天的Palantir本体构建方法(Ontology)也与我国的高质量数据集建设方法具有异曲同工之处,但具有更多的实践经验,推荐拓展阅读。


1.7. AI用数智能体
1.7.1. AI用数智能体的定位——让数据被随需获取
(1) 从“找不到、问不清”到自助获取信息
在企业日常运营中,业务人员经常面临两类与信息获取相关的现实问题。
一方面,当需要获取某些知识或信息时,往往缺乏清晰、便捷的途径。例如,想要了解企业最新的管理制度、业务规范或平台操作流程,需要在多个系统和文档中反复查找;当面对一个具体业务问题,希望获得一份已有的数据分析结论或历史经验参考时,常常只能依赖少数熟悉情况的人员口头解释,信息分散、获取效率低,且难以复用。
另一方面,即便已经具备了数据分析结果,数据的使用过程仍然存在明显的技术门槛。传统的数据分析多以报表、指标或图表形式呈现,业务人员需要先理解指标口径和数据含义,再结合自身经验判断数据反映的问题以及可能的应对方案。这一过程高度依赖个人理解能力和经验积累,不仅耗时,也容易因理解偏差导致结论不一致,难以在组织内部形成稳定、可复制的数据使用方式。
数据和知识虽然一直存在于各类系统、文档和报表之中,但更多停留在被存放和被展示的状态,还没有真正融入业务人员的日常工作中,也尚未形成可以被持续使用的能力。组织需要一种新的数据应用方式,使业务人员能够以更自然、更低门槛的方式,自主获取所需的信息与分析结论。
(2) AI智能体的核心价值
AI 用数智能体是在数据治理成果逐步沉淀、业务对数据使用要求不断提高的背景下出现的一种新型数据应用形态。它以自然语言交互为入口,围绕业务人员的真实工作场景,整合组织内的制度文档、业务规则、数据资产和分析成果,帮助用户快速获取信息、理解数据,并可以在需要时直接触发业务动作。
与传统报表或查询工具不同,AI 用数智能体不只是提供数据展示,而是将“理解问题—定位数据—生成结论—执行动作”串联起来。业务人员不需要关心数据存放在哪里、口径如何计算、如何编写查询语句,只需要表达业务问题或需求,智能体即可完成检索、分析甚至执行任务,从而显著降低知识获取和数据使用的门槛。
综合来看,AI 用数智能体主要围绕四类典型应用场景展开:



图 10 AI用数智能体典型应用场景


- 一是“问知识”,面向制度规范、业务流程、经验方法等组织知识,解决知识分散、查找成本高、难以复用的问题,使隐性的组织经验能够被快速获取和持续沉淀。
- 二是“找数据”,面向组织内各类数据资源,帮助业务人员快速定位可用数据资产,明确数据口径与使用条件,解决“数据在哪里、能不能用、怎么申请”的问题。
- 三是“问数据”,面向指标结果、分析结论和业务现状,自动生成分析结果与解释说明,降低数据分析门槛,加快从问题提出到结果获取的速度。
- 四是“用数据”,不同于“问数据”仅获取结果,“用数据”强调数据直接参与业务决策与执行。依据既定规则或模型判断结果,自动触发相应业务动作,比如风险预警、库存补货等。
这四类场景形成了从知识获取、数据定位、结果分析到行动触发的闭环,使数据应用从“被查询”走向“被理解”,再走向“被执行”。智能体将数据治理成果直接嵌入业务决策和执行场景,使数据能够在日常运营中被持续使用。


1.7.2. 如何打造智能体
(1) 数据治理为智能体夯实基础
智能体是一种围绕特定目标,能够理解用户意图并协同使用多类资源完成信息服务的应用形态。其本质上是基于大模型、自然语言处理与规则编排等技术构建的交互式应用,已经有相对成熟的技术实现路径。真正影响智能体能否完成特定业务任务的关键,不在于技术本身,而在于是否具备结构清晰、语义明确、可被调用和理解的数据与知识基础。
要为智能体提供质量优良的数据,数据标准和元数据管理是重要因素。元数据描述数据的业务含义、来源、结构、血缘关系等,数据标准规定统一的业务术语、指标口径和主数据,使数据能够以规范、一致的业务语言被智能体理解,明确数据代表什么业务含义、在什么规则下生成、不同数据之间如何关联、在什么场景下可以被组合和使用。
只有把数据的业务含义、计算逻辑和数据间关系理解“对”了,智能体才能进行正确的推理与计算,从而持续提供稳定、可靠的信息服务。
(2) 将治理成果转化为AI用数智能体
AI 用数智能体的构建,还有以下关键工作:
- 明确智能体的应用场景,例如是“问知识”(获取制度规范等知识)、“找数据”(定位可用数据资产)还是“问数据”(直接分析数据并反馈结果),不同场景对应不同的建设重点;
- 针对智能体需访问的数据进行针对性准备与治理,重点补充业务含义、计算口径、表间关系等信息,形成权威、可持续维护的知识内容,使其能够被智能体准确理解与调用;
- 通过提示词工程、场景化训练与持续调优,使智能体学会结合上下文理解用户意图、关联对应数据资产并生成可靠回答或执行任务,形成稳定可用的智能服务能力。



图 11 打造AI用数智能体步骤


AI用数智能体,使业务人员能够通过自然语言直接获取和使用数据,进一步降低用数门槛,提升数据在一线场景中的实际应用程度。

 

(或访问:https://xcnoejbrkx3v.feishu.cn/drive/folder/HCXufFf6ilq0ejdF5Hmc3CJhnYf

 

本书采用了开放式共创的编撰模式。我们坚信,内容的可靠性与实践性来自持续的交流与共创。因此,我们诚挚邀请您——每一位关注数据治理的同行者、实践者与思考者——加入本书的共创计划。


如果您在阅读过程中,提出关键修正、贡献具有借鉴价值的优质案例,或补充了不可或缺的核心内容,我们将诚挚邀请您成为本书的共同署名共创者,并参与后续的专题研讨与行业交流,共同推动数据治理领域的实践进步与生态发展。

 

愿这本书不仅是一本指南,更是一次连接行业、凝聚共识、共创未来的行动。

 

 

上一篇:《数据治理实战指南》【第四部分 实战篇】第14章 数据治理实战演练

下一篇:《数据治理实战指南》【第三部分 实施篇】第12章 数据安全管理

  • 分享:
龙石数据
咨询电话: 400-800-9577

400-800-9577